#OpenAI AI
OpenAI最新AI報告:醫療是增長最快的領域之一,Moderna入選最佳案例!
12月8日,OpenAI發佈報告The state of enterprise AI,首次全面展示了企業應用AI的現狀。報告指出,企業採用AI的動作正在加速,尤其是在幾個關鍵行業,其中醫療保健成為增長最快的領域之一。AI醫療實現驚人增長報告顯示,企業對AI的態度從試點轉向全面部署,醫療保健行業表現尤為突出,其OpenAI客戶的年同比增長率高達8倍(8x)。在增長速度上,醫療保健僅次於科技行業(11x),位列第二,超越了製造業(7x)。雖然像金融和科技等行業在AI使用規模上仍舊保持領先,但醫療保健和製造業等行業是從較小的基數起步,目前正以最快的速度迎頭趕上,正迅速縮小與領先者的差距。深入應用:AI為醫療保健帶來的實際價值報告通過具體的企業案例,展示了AI醫療在提升效率、改善客戶體驗等方面的實際效果。例如,生物科技公司Moderna利用ChatGPT Enterprise顯著壓縮了目標產品資料(TPP)的製作周期。過去,撰寫TPP是個複雜又費時的任務,通常要花上幾周時間,還得仔細閱讀多達300頁的資料。為瞭解決這個問題,Moderna引入AI系統,幫助從大量檔案中找出關鍵資訊和假設,自動生成結構清晰的草稿,並自動標記潛在錯誤。Moderna表示,在某些情況下,原本要花幾周才能完成的核心分析工作,現在幾個小時就能搞定。團隊可以更專注於驗證方案的可靠性、做出更周全的決策,從而更快地把新藥帶給患者。又比如,醫療保險公司Oscar Health推出了面向會員的聊天機器人,幫助使用者更輕鬆地應對複雜的醫療保健系統。這些聊天機器人與Oscar自身的系統和資料深度整合,能夠訪問會員的醫療記錄、理賠資訊等,從而提供個性化的回答,並協助完成諸如尋找醫生、續開處方等常見任務。上線後,該平台已能即時解答58%的問題,並在無需人工介入的情況下處理了39%的諮詢。這不僅提升了服務效率,也為會員提供了一個統一且可靠的入口,讓他們更容易理解並順利享受醫保服務。 (智藥局)
2026年看空美股的四大理由
投資者對美股高估值、與基本面背離以及對AI的過度依賴,需要密切關注。如果出現AI應用成果低於預期的情況,恐怕明年將有明顯調整。11月20日,美國股票市場出現劇烈調整。雖然輝達公佈了高於市場預期的三季度營收,納斯達克指數在高開之後大幅下跌,最終收盤較前一個交易日下跌2.2%,標普指數也下跌了1.6%。筆者以為,市場調整可能反映出投資者對美股本身估值過高且與經濟基本面背離的擔憂。同時,當前美國經濟和資本市場都高度依賴人工智慧(AI)投資和應用,若其盈利不及預期,投資者可能需要為2026年美股市場更多的調整做好準備。理由一:美股估值過高雖然從表面上看標普500指數近30倍的PE和納斯達克指數約40倍的PE並沒有達到歷史上的極值區域,但是歷史的極值區域常常出現在較大的衝擊嚴重影響企業盈利之後。比如,2020年的疫情衝擊使得2021年初的標普指數PE上升到40以上。為了避免這種極值的影響,許多投資者用過去十年盈利的平均作為盈利的參考計算市盈率,也就是計算 “經周期調整”的PE。如果參考這個指標,當前標普指數的市盈率已經達到了40.0,僅次於2001年美國科技股泡沫的時期,股票估值的昂貴程度顯而易見。與股票的高估值相對應,是市場對企業盈利的樂觀預期,實現起來頗具挑戰。從遠期PE來看,市場預計2027年納斯達克的估值將回落到25.6倍,這意味著納斯達克成分股的盈利會在兩年多的時間裡增長61%。長期而言,一個經濟體企業利潤佔國民總收入的比重一般是穩定的,也就是說企業盈利的總體增速與名義GDP大體相當。即使對未來的兩年多,一個市值(納斯達克當前總市值約40兆美元)已經超過美國GDP三分之一的股票市場,其名下企業(儘管有外國企業和來自外國的收入)盈利的增速要大幅高於美國(以及全球)名義GDP的增長,實現起來也並不容易。從結構上看,美國股票市場本輪繁榮主要集中在AI相關的股票。據統計,自2022年底ChatGPT發佈以來,AI相關的股票貢獻了標普指數75%的回報率。其中,以輝達、微軟等為首的美股7巨頭的表現尤其搶眼。然而,即使大型公司的盈利前景相對穩定,更值得關注的是納斯達克指數中剔除7巨頭剩下的三千多家公司(市值約佔納斯達克市值的一半)當前的PE高達50倍,而2027年的預測市盈率也在24倍左右。這說明市場預計這些公司的盈利會在兩年多左右的時間增長超過100%——恐怕更加難以實現。理由二:美股表現與經濟基本面存在背離與美國股市近期持續上行並不一致,今年以來美國經濟的增速明顯放緩,通膨壓力上升而就業市場壓力加大,滯脹風險凸顯。美股表現與經濟基本面的背離同樣值得警惕。今年上半年美國GDP環比折年增長約1.5%(由於政府停擺,三季度經濟資料尚未公佈),而聯準會對全年的經濟增長預測也不過是1.6%。同時,與經濟放緩保持一致,近期美國就業市場明顯冷卻。在6月到9月四個月中,美國單月非農就業平均僅僅增長4萬3千人,大幅低於今年5月份以前12個月平均13.5萬人的水平。在經濟放緩的同時,美國的通膨反而回升,經濟滯脹的壓力顯現。受到關稅等多方面因素的影響,近期美國通膨籃子中的商品價格同比增速回升。伴隨著關稅通膨效應的進一步發酵,美國整體通膨可能在年內進一步回升。聯準會預測全年PCE可能達到3%左右,也高於2024年。實際上,由於通膨前景不明,市場對聯儲降息的預期發生變動,也是近期市場調整的關鍵因素之一。不能排除未來通膨壓力超預期,2026年美國流動性環境偏緊衝擊市場的可能。從結構來看,美國經濟基本面對AI也有較大依賴。今年上半年美國經濟的增長主要依賴於居民消費的增長和企業的資本支出,而居民住房投資、庫存調整、淨出口、以及政府支出對經濟增長的貢獻都是負的。考慮到美國消費支出的增長也較2024年有所放緩,當下企業的資本支,特別是與AI相關的如資料中心等投資成為支援美國經濟最核心的驅動力。哈佛大學經濟學家Nick Lichtenberg甚至宣稱,如果沒有AI相關的資本支出的支援,美國2025年上半年GDP增速僅為0.1%。理由三:人工智慧對企業盈利的影響有較大不確定性作為可以與蒸汽機、網際網路媲美的新一代的通用型技術進步,人工智慧被包括投資者在內的社會各界寄予厚望,也成為了支援美國資本市場和美國經濟的關鍵。從目前的情況來看,人工智慧可能對美國經濟乃至全球經濟有積極影響,但是這種影響的大小特別是對企業盈利有多少貢獻則仍有較大不確定性。如果最終證明人工智慧在現實的應用成果低於預期,對市場的衝擊恐怕不能低估。從總量上看,一些研究並不支援AI將徹底改變世界的樂觀預測。比如,高盛預測未來十年AI會增加全球GDP約7%,也就是平均每年增加0.7%。而諾貝爾經濟學獎得主達龍•艾司莫格魯的估計則更是低了一個數量級,他預計未來十年AI將提振美國GDP的總計1.1-1.6%,平均每年約0.1%。即使AI對經濟總量有一定影響,這將如何影響企業盈利,也存在較大不確定性。一方面,AI的落地並不容易。例如,近期美國麻省理工學院對 300 余個公開的 AI 項目及公告進行了系統性分析,並對 153 位領導者進行了調研,得出的結論是95% 的生成式人工智慧投資幾乎沒有為企業帶來收益,半數項目以失敗告終,僅 5% 落地商業化。同時,投資者也普遍關注到,本輪人工智慧浪潮領頭羊OpenAI公司通過外部融資支援存在巨額虧損的營運模式實際上對上下游企業盈利和估值都構成了支撐。比如OpenAI承諾未來幾年進行1.4兆美元的投資建設資料中心基礎設施,並且採購雲服務,支援了上游的晶片製造商和雲服務商的盈利;同時OpenAI以低於成本價提供部分API服務,也方便下游創業企業開拓市場。然而,若 OpenAI 的模式不可持續,整個產業鏈可能受到巨大衝擊。另一方面,IMF 及多份研究表明 AI 的收益在行業、人群乃至國家分配可能高度不均。這意味著如果AI產生的收益過度集中於少數公司,甚至形成更高的壟斷壁壘,是否可能引發美國社會更大的階層對立,乃至引發反壟斷調查等政策風險,也同樣需要防範。理由四:AI公司上下游抱團需要警惕近期以來,美國炙手可熱的AI巨頭們還出現了彼此連接、上下游抱團的行為;具體表現為供應商為客戶提供資金、客戶與供應商之間分享收入、相互持股等。這使得評估真實的AI需求的發展和各公司的獨立財務狀況變得異常困難。在AI的前景本身有較大不確定性的情況下,不透明可能增加市場調整的風險。今年9月,輝達則與OpenAI宣佈達成了一項10吉瓦的算力合作,前者預計向OpenAI投資1000億美元以提供後者購買算力裝置的現金,並且承諾向OpenAI提供足夠的晶片。這一交易本身已經引發了許多關注和討論。此外,OpenAI與晶片巨頭AMD又宣佈了一項巨額算力基建協議,兩家公司將合作部署總計6吉瓦的算力,隨著算力部署規模的擴大和其他條件的滿足,OpenAI可通過行權獲得AMD約10%的股權。實際上,甲骨文、乃至微軟、xAI等企業也都簽署過類似的一些協議。總體而言,筆者認為投資者對美股高估值、與基本面背離以及對AI的過度依賴產生的脆弱性需要密切關注。如果出現人工智慧應用成果低於預期的情況,恐怕美股2026年將有明顯調整。 (FT中文網)
AI公司正陷入囚徒困境!知名科技投資老鳥警告:未來三到四年最重要的是建設太空資料中心,OpenAI最大痛點是每token成本太高
“AI 時代,誰是 token 的最低成本生產者,誰就擁有決定性優勢。”“未來三四年,最重要的事情是太空資料中心。”近日,知名科技投資人Gavin Baker在最新採訪中與主持人深入探討了輝達與Google之間的基礎設施戰爭,Gemini3和Scaling Law的影響,以及從Hopper向Blackwell晶片的轉變如何重塑了整個行業。Gavin Baker是Atreides Management的管理合夥人兼首席投資官(CIO),以其在公開市場上對科技趨勢,尤其是AI領域的深刻洞察而聞名。其中有關太空資料中心的觀點,也得到了馬斯克的認同:Gavin尖銳地指出,過去幾年所有AI公司都陷入“囚徒困境”:如果你放慢腳步,你就永遠出局;如果競爭對手不停,你只能繼續投。他認為,在模型進展上,Gemini 3 證明Scaling Law仍然成立。過去一段時間 AI 的主要進步則更多來自後訓練的兩條新縮放路徑,也就是帶驗證回報的強化學習與測試時算力,讓 AI 在新一代硬體還沒有完全到位時仍能繼續推進。Blackwell(GB200/GB300)和 AMD MI450 的出現,將帶來大幅降低每 token 成本的能力。Gavin強調,xAI 將是最快推出 Blackwell 模型的公司,因為它擁有最快的資料中心部署能力和大規模叢集調通經驗。Gavin還指出,過去 Google 是全球最低成本 Token 生產者,這給了他們巨大優勢。但隨著GB300開始量產,低成本時代將屬於 Nvidia 的客戶,如OpenAI、xAI 等。至於太空資料中心的建設,他認為這是未來三到四年最重要的事情,“現在這是一場巨大的淘金熱”。此外,他還分析了:AI 推理如何讓飛輪啟動,徹底改變資料和使用者反饋的價值邏輯;端側 AI 對算力需求的潛在衝擊,可能讓雲算力的爆發放緩;SaaS 公司在 AI 時代面臨的毛利困局,以及誰能抓住下一波風口。小編節選整理了部落格內容,資訊量巨大,enjoy!Gemini 3 與前沿模型整體進度主持人:公眾對 Gemini 3 的理解大多集中在擴展定律(Scaling Laws)與預訓練機制。你怎麼看當前的前沿模型整體進展?Gavin:Gemini 3 非常重要,因為它再次確認:預訓練的擴展定律仍然成立。關鍵在於,全世界沒人真正知道為什麼擴展定律成立。它不是理論,是經驗事實,而且被極其精確地測量、驗證了很多年。我們對擴展定律的理解,就像古埃及人對太陽運行的理解:能精確測量,卻完全不知道背後的物理機制。所以每一次確認都非常關鍵。基於擴展定律,其實 2024–2025 按理應該沒有任何 AI 進展。原因是:xAI 把 20 萬 Hopper GPU 做到完全“coherent”(訓練時 GPU 彼此同步共享狀態)之後,下一步就必須等下一代晶片。Hopper 時代的上限就是 20 萬片,你再擴都沒用。但真正的故事是: “推理(Reasoning)”救了整個 AI 行業如果沒有推理模型(OpenAI 在 2024 年 10 月推出的 Reasoning 系列),整個行業會從 2024 年中期到 2025 年底 陷入 18 個月停滯。推理帶來了兩條全新擴展定律:強化學習 + 可驗證獎勵(RL + Verified Rewards)“在 AI 中,凡是你能驗證的,你就能自動化。”測試時計算(Test-Time Compute)也就是讓模型在推理階段使用更多算力。這兩條擴展定律讓 AI 在沒有新 GPU 的 18 個月裡依然高速進步。xAI會最快訓練出 Blackwell 模型Gavin:Google 在 2024 推 TPU v6、2025 推 TPU v7。這些晶片性能飛躍巨大,相當於從二戰戰機跳到冷戰噴氣機。因為 Nvidia Blackwell(GB200)極度困難、延遲嚴重,Google 等於是提前拿到了下一代“材料”。Gemini 3 正是在更強 TPU 上驗證預訓練擴展定律的第一次大考,結果通過了。這意味著:Blackwell 時代訓練出來的模型會非常強。2026 年初會出現第一批真正的 Blackwell 模型。我認為最快的是 xAI。理由很簡單:黃仁勳曾說過,“沒有人比 Elon Musk 更快建資料中心。”Blackwell 這種超級複雜的晶片,需要海量叢集快速部署來“磨合”。只有 xAI 能做到最快部署、最多叢集、最快調通。所以他們會最先訓練出 Blackwell 模型。Google“低成本生產 Token”的戰略地位將被逆轉Gavin:過去 Google 是 全球最低成本 Token 生產者,這給他們巨大優勢:他們可以用低價(甚至負毛利!)讓競爭對手幾乎無法呼吸。這是極其理性的企業戰略。但當 GB300(比 GB200 更強)開始量產、並且能無縫替換進現有機房後,低成本時代將屬於 Nvidia 的客戶(OpenAI、xAI 等)。到那時,Google 就不再是最低成本生產者,就不能再輕易靠“負 30% 毛利”窒息競爭者。AI 行業經濟格局將大幅改變。為什麼 TPU v8 / v9 趕不上 GPU?主持人:為什麼會這樣?為什麼 TPU v8、v9 無法做到和 GPU 一樣優秀?Gavin:這裡有幾點原因。第一點:Google 做了更加保守的設計選擇原因之一我認為是他們的晶片設計流程本身比較特殊。半導體設計分為前端(Front-End)與後端(Back-End)。另外還有與台積電合作的晶圓代工環節。製造 ASIC 有很多方式,而 Google 的方式是:Google 主要負責前端設計(相當於建築師畫房子的圖紙)Broadcom 負責後端設計與量產(相當於施工方蓋房子,並負責與台積電合作)這是個粗略類比,但能說明問題。Broadcom 的半導體業務長期維持 50~55% 毛利率。我們不知道 TPU 的具體數字,但如果假設到 2027 年 TPU 業務規模達到 300 億美元,那麼 Broadcom 大概會從中賺走 150 億美元的毛利。對 Google 來說,這實在太貴了。當一個公司把 ASIC 業務做大到這種量級,就會出現一個非常明顯的經濟動力:把所有晶片設計和製造流程“收歸自研”。蘋果就是這麼幹的。蘋果的晶片沒有 ASIC 合作夥伴,前端蘋果自己做,後端蘋果自己做,生產也由蘋果直接管理台積電,因為他們不想為外包設計付 50% 毛利。當業務規模夠大時,你完全可以把 Broadcom 這類供應商的工程師挖走、薪水翻倍、甚至三倍,還可以省錢。如果 TPU 到 2028 年規模做到 500 億美元,那 Google 每年付給 Broadcom 的錢會變成 250 億。那 Google 完全可以去 Broadcom 把整個團隊全買走,把成本反而降下來。當然,出於競爭與監管原因 Google 不能真的這麼幹,但這些“經濟摩擦”已經影響 TPU v8 / v9 的設計節奏了。第二點:Google 引入了聯發科(MediaTek),在敲打 Broadcom這是一個明確的訊號:Google 對付給 Broadcom 的高額費用已經非常不滿。台灣的 ASIC 公司(包括聯發科)毛利要低得多,把他們引入,就是“第一槍”。第三點:SerDes 是晶片之間通訊的核心技術,但有價值上限Broadcom 的 SerDes 確實很好,但SerDes 的價值上限也就 100~150 億美元等級,絕沒到 250 億美元 這種程度,世界上還有其他優秀的 SerDes 供應商所以,Google 沒必要永遠被 Broadcom 卡住。第四點:Google 的保守設計,可能是因為供應鏈“分裂”要開始了Google 正在準備多家供應商平行工作(Broadcom + MediaTek)。這種“分裂的供應鏈”會讓設計更加保守,因為你要保證每家廠商都能按時做出一致的結果。這讓 TPU 的迭代速度變慢了。第五點:GPU 正在加速,而 ASIC 正在變慢這是行業最關鍵的趨勢。Nvidia 和 AMD 的回應是:“你們所有人都在造自己的 ASIC?好,我們就一年一代,讓你們永遠追不上。”GPU 的迭代速度現在是過去的 2 倍甚至 3 倍。而當你去做 ASIC(TPU、Trainium、各種自研晶片)時,你會突然意識到:“哦……原來造 ASIC 根本不是只做一個晶片這麼簡單!”你要同時解決:晶片本體、NIC(網路介面卡)、CPU、Scale-up 交換機、Scale-out 交換機、光模組、軟體棧、訓練框架、生態系統、整個供應鏈。你做出來一個小晶片,結果發現:“糟糕,我只是做了一個微小元件,而 GPU 廠商已經把整個巨型系統打通了。”第六點:做出“好 ASIC”需要至少三代Google TPU 的歷史就是活生生的例子:TPU v1:能用,但力量不足TPU v2:好一點TPU v3/v4 才開始接近真正“能打”Amazon 的 Trainium 也是一樣:Trainium 1:比 TPU v1 略好,但差不多等級Trainium 2:變強一點Trainium 3:第一次達到“可以接受”Trainium 4:預計才會真正成為好晶片這就是經驗積累 → 工程成熟 → 系統打磨,無法跳步驟。這意味著所有其他試圖“自研 AI 晶片”的公司都會發現自己根本追不上 Nvidia、AMD。第七點:最終,TPU 和 Trainium 也會變成“客戶自有工具鏈”你可以爭論具體年份,但方向是確定的。因為從第一性原理來說,當規模足夠大,把晶片從外包轉為自研是經濟必然。主持人:如果把視角拉遠一點,這一切的意義是什麼?三代 GPU、三代 TPU、三代 Trainium 之後,這場巨大戰爭將給全人類帶來什麼?Gavin:如果讓我給出一個事件路徑:第一步:Blackwell 時代的模型將極其強大。第二步:GB300(以及 AMD MI450)帶來每 Token 成本的大幅下跌。這會讓模型可以“思考更久”。當模型能思考更多步,就能做新的事情。我被 Gemini 3 第一次“主動幫我做事”震撼到:它幫我訂餐廳。以前模型都是給我生成文字、做研究,這次是直接辦成一件現實任務。如果它能訂餐廳,那就離訂機票、訂酒店、打 Uber、管日程、全面生活助理不遠了。大家現在都在談這個,但真的想像一下:這東西最終會跑在手機裡。這就是近期就會發生的未來。而且你看,現在一些非常“技術前沿”的大公司,他們超過 50% 的客服已經完全由 AI 處理了。客服是一個 4000 億美元的大產業。而 AI 特別擅長的一件事,就是“說服”,這正是銷售和客服的核心能力。從一家公司的角度想,如果把業務拆開,就是:做產品、賣產品、服務使用者。現在看,到 2026 年底,AI 很可能在其中兩塊已經非常拿手了。這又回到 Karpathy 說過的那句話:AI 可以自動化所有“可被驗證”的任務。凡是存在明確對錯結果的事情,你都可以用強化學習把模型訓練得非常強。主持人:你最喜歡的例子有那些?或者說未來最典型的?Gavin:比如讓模型自動訓練模型本身;比如全球帳目是否能對齊;比如大規模會計工作;或者銷售、客服這些“明確可驗證結果”的任務。如果這些在 2026 年開始全面落地,那麼NVIDIA Blackwell就有明確 ROI,然後領域繼續往前走,接著會迎來Rubin,再接著是 AMD MI450、Google TPU v9。ASI與大公司的“囚徒困境”Gavin:但最有意思的問題是:人工超級智能(ASI)到底會產生怎樣的經濟回報?過去幾年所有公司都陷入“囚徒困境”:如果你放慢腳步,你就永遠出局;如果競爭對手不停,你只能繼續投。微軟今年早些時候“猶豫”了 6 周,我想他們大概會說他們後悔。但是隨著 Blackwell、特別是 Rubin 的到來,經濟因素將會壓倒囚徒困境。因為數字實在太誇張了。你看那些買 GPU 最大的公司,都是上市公司,他們每季度都有審計過的財報,你完全可以算出他們的 ROIC(投入資本回報率)。而所有這些公司在大規模買 GPU 後,ROIC 比之前更高。有人說那是因為減少了營運成本,但那本來就是期待的 AI ROI。還有很多收入增長,其實來自廣告推薦系統從 CPU 遷移到 GPU 帶來的效率提升。但不管怎樣,ROI 已經非常明確。每家網際網路大廠內部,掌管營收的人都非常不爽,因為他們認為太多 GPU 被給了研究團隊:“你把 GPU 給我,我就能增長營收。”這在每家公司都是永恆的爭奪。主持人:我很好奇你有那些“潑冷水”的看法,會讓算力需求增長放緩?Gavin:最明顯的“空頭邏輯”是端側 AI(Edge AI)。三年後,只要手機稍微變厚一點、塞下更多 DRAM、電池短點續航,你就能在本地運行一個剪裁版 Gemini 5、Grok 4/4.1、ChatGPT,達到30–60 tokens/s,IQ 115 左右。而且這是免費的。顯然,這就是蘋果的戰略:在本地運行隱私安全的模型,只有需要時才呼叫雲端的“上帝大模型”。如果端側 AI 滿足90% 的需求,那這將是最嚇人的“空頭論點”。另一個風險是 scaling law 不再生效。但如果假設 scaling law 繼續有效,預訓練肯定還能撐一代;後訓練(RLVR 等)剛起步;推理階段的 test-time compute 也才剛開始。而且我們已經在取得巨大進展,比如模型能把越來越多上下文裝進“腦子”裡。長期來看,大上下文窗口可能是解決當前很多問題的關鍵。配合 KV-cache offload 這一類技術,它們潛力巨大。對 Meta、Anthropic、OpenAI的看法主持人:我們其實還沒有聊太多 Meta、Anthropic、OpenAI。我很好奇你對整個基礎設施層的看法。這三家是這個“大博弈”裡最關鍵的玩家。我們前面討論的所有趨勢,對這幾家公司會產生什麼影響?Gavin:我先談談對 frontier 模型整體的一些看法。在 2023–2024 年,我特別喜歡引用Erik Brynjolfsson(美國經濟學者) 的一句話。Erik 說:“基礎模型是歷史上增值速度最快的資產。”我認為他說對了 90%。我當時補了一句:“擁有獨特資料和網際網路等級分發能力的基礎模型,才是歷史上增值最快的資產。”但“推理” 的出現徹底改變了這一切。以前所有偉大網際網路公司的核心飛輪都是:做出好產品→ 吸引使用者 → 使用者產生資料 → 用資料改進產品 → 更多使用者 → 更多資料……Netflix、亞馬遜、Meta、Google都靠這套飛輪運轉十年以上,這也是為什麼它們擁有極強的規模回報。然而,這個飛輪在“無推理能力”的AI 時代是不存在的。你預訓練一個模型,把它丟到現實世界,它就那樣了。你可以做 RLHF,基於一些使用者反饋去調整,但那個過程噪音大、訊號弱、反饋難以精確量化,很難真正變成“可驗證獎勵”反饋回模型但推理讓飛輪開始轉動了。現在,如果大量使用者不斷提出某類問題,並持續對某些回答給出明確的正向或負向反饋,這些都能被轉化為可度量、可驗證的獎勵訊號,再反饋回模型做強化學習。我們現在還處在非常早期的階段,但飛輪已經開始轉動了。這是對所有 frontier labs 的格局影響最大的變化。主持人:你能具體解釋一下嗎?為什麼 reasoning 會讓飛輪成立?Gavin:如果大量使用者在問同一個問題,並穩定地偏好某些答案、不喜歡另一些答案,這就產生了一個穩定一致的獎勵訊號。而且這個獎勵訊號是可驗證的。模型就能把這些偏好再次學習回去。雖然現在還早、還很難做,但你已經能看到飛輪開始啟動。第二點,我認為非常重要的是:Meta。祖克柏在今年1 月曾說過一句話:“我高度確信,到2025 年的某個時間點,我們將擁有最強、最好的AI。”我現在不確定他是不是仍然能排進前 100 名。他當時的判斷可以說是錯得不能再錯。而我認為這是一個非常重要的事實,因為它說明:這四家美國前沿實驗室做到的事情,其實難度遠比外界想像的大。Meta 砸了巨額資金,也失敗了。Yann LeCun團隊出現動盪,他們甚至推出了那個著名的“10 億美元挖 AI 研究員”的計畫。順帶說一句,微軟也失敗了。他們雖然沒有像 Meta 那樣做明確預測,但微軟收購了 Inflection AI,當時他們內部也多次說:“我們預期自己的內部模型會迅速變強,未來 Copilot 會越來越多跑在內部模型上。”亞馬遜則收購了 Adept AI,他們有自己的 Nova 模型,但我不認為它能進入前 20 名。所以很顯然,這件事比一年前所有人以為的都要難得多。原因有很多,例如要讓一個巨型 GPU 叢集保持“同步一致”其實非常困難。許多傳統科技公司過去營運基礎設施時都以“節省成本”為核心,而不是以“性能複雜度”為核心。要讓一大堆 GPU 在大規模叢集裡保持高利用率,這是極其難的事情,而且不同公司在 GPU 維運能力上差距非常大。如果你最多能把兩、三十萬顆 Blackwell(GPU)跑到高效一致,而你的叢集只有 30% 的有效執行階段間,而你的競爭對手能做到 90%,那你們根本不在同一個維度競爭。這就是第一點:不同公司在 GPU 維運能力上存在巨大差距。第二點,這些 AI 研究人員喜歡談“品味”,我覺得很好笑。“你為什麼賺這麼多錢?”“因為我的品味很好。”所謂“品味”,其實就是一種對實驗方向的直覺判斷能力。而這正是為什麼這些人能拿很高的薪水。隨著模型規模繼續增大,你已經不能像以前一樣,先在一個 1000 GPU 的叢集上跑一次實驗,再把它複製到 10 萬 GPU 上。你必須直接在 5 萬 GPU 規模上跑實驗,而且可能要跑好幾天。機會成本極高。所以你必須有一支極強的團隊,知道應該把算力押在那些實驗上。然後,你還必須把 RL(強化學習)、後訓練、推理成本控制等所有部分都做到很好。整個流程極其複雜。做這一切,非常非常難。很多人以為簡單,但其實一點都不簡單。我以前做零售行業分析時常說:在美國任何一個行業,如果你能營運 1000 家門店,並讓它們保持整潔、燈光明亮、陳列合理、價格得當、員工友好並且不偷東西——你就能成為一家 200 億或 300 億美元的公司。但結果是,全美國只有 15 家公司能做到。真的非常難。AI 也是同樣的道理:要把所有環節都做到位,非常難。而這也讓所謂的“推理飛輪”開始拉開差距。更重要的是,這四家實驗室,XAI、Gemini、OpenAI、Anthropic,它們內部都有比公開型號更先進的“檢查點”。所謂檢查點,就是模型持續訓練過程中階段性的版本。它們內部使用的版本更強,它們又用這些更強的版本去訓練下一個版本。如果你沒有這些最新的 checkpoint,你就已經落後了,而且會越來越難追上。中國開源對 Meta 來說是“天賜禮物”。因為 Meta 可以用中國開源模型當成自己的 checkpoint,從而實現“自舉”(bootstrap)。我相信他們正在這麼做,其他公司也一樣。OpenAI的最大痛點:Per-token成本太高Gavin:回到公司競爭格局:XAI 將會是第一家推出 Blackwell 模型的公司,也是第一家在大規模推理場景中使用 Blackwell 的公司。這對他們來說是非常關鍵的節點。順便說一句,如果你現在去看 openrouter 的資料,xAI 已經佔據主導地位了。openrouter 可能只佔 API token 的 1%,但它是一個趨勢訊號:XAI 處理了大約1.35 兆 tokenGoogle 大約800–9000 億Anthropic 大約7000 億XAI 表現非常好,模型也很棒,我強烈推薦。你會看到:XAI 先推出模型,OpenAI 會隨後跟上,但速度更快。但是 OpenAI 現在最大的痛點,是它們的 per-token 成本太高,因為他們需要為算力支付溢價,而且合作方不一定是最擅長維運 GPU 的那批人。結果就是OpenAI 是高成本的 token 生產者。這也解釋了他們近期的“紅色警戒”。他們承諾了1.44 兆美元的未來 GPU 支出,這是一個巨大的數字,因為他們知道自己需要大量融資,尤其是如果 Google 繼續“把生態的經濟氧氣吸乾”,那 OpenAI 的壓力更大。他們會推出新模型,但在相當長的時間裡,他們仍然無法解決自己相對於 XAI、Google、甚至 Anthropic 的成本劣勢。Anthropic 是一家好公司,他們燒錢遠低於 OpenAI,但增長更快。所以我覺得必須給Anthropic很多的認可,而這很大程度上得益於他們和Google、Amazon在TPU和Trainium上的合作關係。Anthropic能夠從與Google相同的動態中受益,我認為這在這場精彩的“國際象棋”遊戲中非常具有指示意義。你可以看看Daario Jensen,可能有一些公開評論,他們之間有一些小小的交鋒。Anthropic剛剛和Nvidia簽了50億美元的合同。那是因為Dario是個聰明人,他理解關於Blackwell和Rubin相對於TPU的這些動態。所以Nvidia現在從原來的兩個“戰士”(XAI和OpenAI)增加到了三個戰士。這有助於Nvidia在與Google的競爭中佔據優勢。如果Meta能夠趕上,這也非常重要。我相信Nvidia會盡其所能幫助Meta,比如:“你這樣運行這些GPU,我們或許可以把螺絲擰緊一點,或者調整一下參數。”此外,如果Blackwell回到中國,看起來很可能會發生,那也非常好,因為中國的開源生態也會回歸。未來三到四年,最重要的是太空資料中心主持人:我總是很好奇關於資料中心的一些問題,比如你腦中有沒有關於非晶片方面的突破?Gavin:我認為未來三到四年世界上最重要的事情是太空中的資料中心,這對地球上建造電廠或資料中心的人都有深遠影響。現在這是一場巨大的淘金熱。大家都覺得AI很有風險,但我打算建一個資料中心,一個電廠來驅動資料中心。我們肯定需要它。但如果從最基本的原理來看,資料中心應該建在太空裡。運行資料中心的基本投入是什麼?是電力、冷卻和晶片。總成本角度來看,這就是全部的投入。在太空中,你可以讓衛星全天候在陽光下運行,而且陽光的強度高出30%。你可以讓衛星一直接收光照,這意味著外太空的輻照度比地球高六倍,所以你能獲得大量太陽能。其次,因為全天都有陽光,你不需要電池,而電池成本佔比巨大。所以太空中可用的最低成本能源就是太陽能。冷卻方面,在一個機架中,大部分重量和體積都是用於冷卻,而地球上的資料中心冷卻非常複雜,包括HVAC、CDU、液冷等。而在太空中,冷卻是免費的,你只需把散熱器放在衛星的背光面,這幾乎接近絕對零度,所有這些成本都消失了,這節省了大量開銷。每顆衛星可以看作是一個機架,也有人可能製造三機架的衛星。那麼如何連接這些機架呢?在地球上,機架通過光纖連接,本質上是通過電纜傳輸雷射。而唯一比光纖更快的,是通過真空傳輸雷射。如果你能用雷射把太空中的衛星連接起來,你就擁有比地球資料中心更快、更穩定的網路。訓練方面,這需要很長時間,因為規模太大。但推理(inference)方面,我認為最終訓練也會發生。考慮使用者體驗:當我問Grok問題並得到回答時,手機發出的無線電波傳到基站,然後進入光纖,經過紐約某個匯聚設施,再到附近的資料中心完成計算,最後返回。如果衛星可以直接與手機通訊,而Starlink已經展示了直接到手機的能力,那麼體驗將更快、更低成本。所以從最基本的原理來看,太空資料中心在各方面都優於地球上的資料中心。主持人:那麼阻礙因素是什麼?是發射成本嗎?還是發射可用性問題?Gavin:我的意思是,我們需要大量的太空飛船。像Starship這樣的飛船是唯一能夠經濟地實現這一目標的飛船。我們需要很多這樣的Starship。也許中國或俄羅斯能夠回收火箭,Blue Origin剛剛回收了一個助推器。這完全是一種全新的思考SpaceX的方式。很有趣的是,Elon昨天在採訪中提到,Tesla、SpaceX和XAI正在趨於融合,實際上確實如此。XAI將成為Tesla Optimus機器人的智能模組,Tesla Vision提供感知系統,而SpaceX將擁有太空中的資料中心,為XAI、Tesla、Optimus以及許多其他公司提供AI算力支援。這種融合非常有趣,每個公司都在為其他公司創造競爭優勢。如果你是XAI,有了與Optimus的內建關係非常好,Tesla又是上市公司,任何內部協議都會經過嚴格稽核,而太空資料中心又帶來了巨大優勢。此外,XAI還有兩家公司擁有大量客戶,可以幫助他們建立客戶支援和銷售AI代理系統。總的來說,這些公司正在以一種巧妙的方式融合在一起。我認為當xAI明年推出第一個Blackwell模型時,將是一個重要時刻。如何看待算力短缺的周期性問題主持人:歷史上人類經濟中短缺總會伴隨資本周期的過剩。如果這次短缺是算力,比如Mark Chen曾表示,如果給他們幾周時間,他們會消耗十倍算力。似乎算力仍然存在巨大短缺,但歷史規律表明短缺之後會出現過剩。你怎麼看這個規律在這項技術上的體現?Gavin:AI與傳統軟體根本不同,每次使用AI都會消耗算力,而傳統軟體不會。確實,每家公司都可能消耗十倍算力,結果可能只是讓200美元檔的服務更好,免費檔可能會加入廣告。Google已經開始用廣告為AI模式變現,這會給其他公司引入免費模式廣告的許可,這將成為重要的ROI來源。OpenAI等公司也會在服務中收取佣金,例如幫你預訂旅行,獲取一定收入。半導體行業中庫存動態會導致周期性波動。半導體的“鐵律”是客戶緩衝庫存必須等於交貨周期,因此出現庫存周期。我們最近沒有看到真正的半導體產能周期,也許自90年代末以來就沒有。原因是台灣半導體非常擅長整合和穩定供應,但現在他們的產能擴張未跟上客戶需求。我認為台灣半導體可能會犯錯誤,因為他們過於擔心產能過剩。他們曾經嘲笑Sam Altman,認為他不懂,他們害怕產能過剩。從另一個角度看,功率作為“限速器”對最先進計算玩家非常有利。如果功率受限,計算成本就不重要,你每瓦特獲得的算力越高,收入越高。建造資料中心的投資回報取決於單位功率的收益,這是對最先進技術非常有利的。至於能源解決方案,美國無法快速建造核電站,法律和環境限制太嚴格。解決方案是天然氣和太陽能,AI資料中心可以靈活選址,這也是為什麼美國各地,包括Abilene,會有大量活動,因為這裡靠近天然氣產區。渦輪機製造商正在擴張產能,比如Caterpillar計畫在未來幾年增加75%產能,所以電力問題正在得到解決。SaaS公司犯的“亞馬遜式錯誤”主持人:我們來談談SaaS吧,你怎麼看?Gavin:應用型SaaS公司正在犯和實體零售商對待電商時同樣的錯誤。實體零售商,特別是在電信泡沫破裂後,他們看到了亞馬遜,覺得“哦,它在虧錢,電商是低利潤業務。”從基本原理來看,怎麼可能效率更高呢?現在,我們的客戶自己去店裡,付運輸費,然後再付把商品運回家的費用。如果我們直接把貨物發給每個客戶,怎麼可能效率更低呢?亞馬遜的願景當然是,最終我們會沿街把包裹送到每戶人家。因此,他們當時沒有投資電商,雖然看到客戶需求,但不喜歡電商的利潤結構。這就是幾乎所有實體零售商在投資電商方面動作緩慢的根本原因。現在來看,亞馬遜在北美零售業務的利潤率甚至高於很多大眾零售商。利潤率會變化,如果客戶需求一項根本性的變革性新技術,不去接受總是錯誤的,這正是SaaS公司正在犯的錯誤。這些SaaS公司有70%、80%、甚至90%的毛利率,但他們不願接受AI帶來的毛利率。AI的本質是,每次都需要重新計算答案,而傳統軟體寫一次就能高效分發,這也是傳統軟體很好的商業模式。AI正好相反,一個優秀的AI公司毛利率可能只有40%。主持人:那為什麼他們還能夠早期產生現金流?Gavin:奇怪的是,由於效率提升,他們比傳統SaaS公司更早產生現金流,但不是因為高毛利,而是因為員工很少。看著這些公司很悲哀,如果你想運行AI代理,但不願意接受低於35%的毛利率,它永遠不會成功,因為AI原生公司就是以40%左右的毛利在運作。如果你試圖保持80%的毛利結構,等於保證在AI上失敗,這是絕對的保證。這很瘋狂,因為我們已有案例證明軟體投資者願意忍受毛利壓力,只要毛利潤美元總額合理,這就是雲端運算的存在證明。你可能忘了,Adobe從本地部署轉向SaaS模式時,不僅毛利下滑,收入也大幅下降,因為從一次性收費變為多年分期收費。微軟的情況沒那麼戲劇,但早期雲轉型的股票也很難,投資者覺得“天啊,你是個80%毛利的業務,現在毛利下降到50%”。但事實證明,只要毛利潤美元總額增長,這些毛利可以隨著時間改善。微軟買下GitHub,現在GitHub也成為Copilot的分發管道,這是一筆巨大的業務,毛利較低,但成功了。幾乎沒有一家應用型SaaS公司不能運行成功的AI代理策略。他們相較AI原生公司有巨大優勢,因為他們有現金流業務。我認為有機會出現新的“建設性激進者”,去告訴SaaS公司:別再這麼傻了。只需展示AI收入和毛利,說明真實的AI是低毛利的,並且對比風險投資支援的虧損競爭者。有些公司甚至可以暫時將毛利降為零,但他們有現成現金流業務。這是一套顯而易見的玩法,Salesforce、ServiceNow、HubSpot、GitLab、Atlassian,都可以運行。使用AI代理的方法很直接:先問自己,當前為客戶提供的核心功能是什麼?如何用代理進一步自動化?例如CRM,客戶做什麼?他們與客戶溝通,我們做客戶關係管理軟體,也做客戶支援。做一個可以執行這些功能的代理,以10%-20%的價格出售,讓代理訪問所有資料。目前的情況是,其他人開發的代理訪問你的系統,把資料拉走,最終你會被替換。這完全是因為企業想保持80%毛利,這是一場生死攸關的決策。除了微軟,幾乎所有人都在失敗。正如Nokia當年備忘錄所說,你的平台在燃燒,你可以跳到新的平台去撲滅火。 (51CTO技術堆疊)
OpenAI拉響紅色警報!發佈新模型“大蒜”對戰Google
OpenAI急了,大蒜(Garlic)模型重磅登場。2025年,全球AI行業的競爭邁入白熱化階段。今年8月,GPT-5發佈後,OpenAI不僅未能延續此前ChatGPT系列帶來的“技術革命”熱潮,反而暴露了諸多深層問題,讓市場對其領先地位產生質疑。GoogleGemini 3的強勢突圍,更是讓OpenAI陷入了戰略被動。ChatGPT流量在競品發佈後較峰值下降6%,獨立使用者數也同步下降6%這家估值5000億美元的巨頭果斷拉響“紅色警報”,集中資源押注代號“大蒜(Garlic)”的新一代模型。這一命名暗藏深意:Shallotpeat(紅蔥頭)在泥炭中難以生長,而Garlic(大蒜)則能適應更複雜的生長環境。寓意著這款模型將攻克OpenAI在預訓練環節的“土壤缺陷”,在曾經的短板領域實現突破。這場以“大蒜(Garlic)”為核心的戰略反擊,不僅是OpenAI的重點突圍行動,更掀起了AI巨頭在技術和算力領域的全面對抗,行業競爭強度持續升級。大蒜(Garlic)亮劍:OpenAI聚焦預訓練短板的戰略反擊面對Gemini 3在多模態與推理任務上的強勁表現,OpenAI的“大蒜(Garlic)”並非簡單的迭代最佳化,而是一場針對性的戰略重構。此前OpenAI的“紅蔥頭(Shallotpeat)”方案因依賴資料堆砌陷入瓶頸,而“大蒜(Garlic)”模型直指預訓練階段的“土壤短板”,這正是Gemini 3實現領先的關鍵領域。為守住ChatGPT的陣地,OpenAI暫緩了廣告智能體等商業化非核心項目,將算力與人力全部傾斜給AI模型研發,展現出明確的戰略聚焦姿態。結合已知資訊,大蒜(Garlic)在技術層面實現了三大突破性升級。其一,預訓練資料量較Gemini 3提升30%,涵蓋2025年中期前的全網文字、程式碼與多模態資源。其二,採用混合稀疏啟動架構,在保持參數規模的同時,推理成本下降15%。其三,專攻程式設計與邏輯推理,在MATH資料集得分提升12%,ARC資料集提升9%,內部測試中Python程式碼生成精準率達89.7%。OpenAI對這款模型寄予厚望。聯合創始人兼CEO Sam Altman在內部備忘錄中直言,“大蒜(Garlic)是公司最具雄心的賭注”,它的使命是將ChatGPT的整體表現拉回行業領先水平。按照規劃,大蒜(Garlic)模型將於2026年初以GPT-5.2或GPT-5.5版本發佈。AI巨頭暗戰升級:技術與算力的全面對抗今年11月,Google、OpenAI及Anthropic相繼發佈最新模型——Gemini 3、GPT-5.1和Claude Opus 4.5。當前行業已形成“三足鼎立”的穩定格局。OpenAI、Google與Anthropic組成的AI三巨頭,早已跳出單一的模型性能比拚,進入技術路線與算力基建的全方位深層競爭。技術層面,三巨頭各有專攻卻形成精準對標。Google的Gemini主打“原生多模態”優勢,從設計之初就兼顧文字、圖像、音訊和視訊的理解處理,能輕鬆應對長文字分析、視訊內容總結等複雜場景,再加上自研TPU晶片的全端最佳化,讓技術落地更高效。Anthropic則劍走偏鋒,Claude系列模型聚焦企業級市場,以安全合規為核心,在程式碼處理、敏感資料保護等場景中形成壁壘,成為眾多企業的首選工具。OpenAI則依託與微軟的深度繫結,一邊打磨消費級產品的使用者體驗,一邊推進企業級服務落地,借助合作夥伴的生態資源快速補全短板。算力作為AI競爭的“命脈”,已成三巨頭砸錢爭奪的焦點。Google靠自研TPU晶片建構專屬算力體系,通過軟硬體協同降低運行成本。OpenAI聯合微軟、輝達共建超級資料中心,用巨額投入鎖定長期算力供應。Anthropic也不甘落後,一邊佈局自有資料中心,一邊與Google達成算力合作,確保研發與服務無後顧之憂。值得注意的是,這場算力競賽還面臨電力短缺的現實挑戰,巨頭們不僅要拼技術,還要解決能源供給的底層難題。AI競爭的終極意義:從技術競賽到價值創造全球AI格局的動態演變,推動著行業從“技術參數競賽”走向“實際價值創造”。對於普通使用者而言,競爭帶來的是更強大、更實用的AI工具。對於企業來說,AI不再是錦上添花的“炫技工具”,而是降本增效、創新商業模式的核心引擎。隨著全球AI治理框架逐步完善,技術競爭將更加規範,而那些既能堅持創新,又能兼顧安全與倫理的企業,終將在這場長跑中脫穎而出。2025年的AI競爭,不是終局,而是新篇章的開始。與其糾結於“誰將贏得這場戰爭”,不如擁抱AI帶來的變革。真正的勝利者,永遠是那些善於利用技術創造價值的個人與企業。 (創新觀察局)
蘋果最擔心的事,還是發生了
OpenAI正緊鑼密鼓地籌備推出自己的AI硬體。前段時間,美國矽谷就傳出消息指出OpenAI正在瘋狂挖角,已經有數十位蘋果硬體工程師被招募到內部的硬體團隊。無獨有偶,今年OpenAI也宣佈以65億美元的高價收購了由Jony Ive創立的io Products,同時讓Ive和LoveFrom團隊在OpenAI內部全面接管設計和創意相關工作。Jony Ive是蘋果前首席設計師,從90年代開始主導了iMac、iPod、iPhone、iPad、Apple Watch乃至Apple Park總部大樓等一系列產品的工業設計,並幾乎定義了最近二十多年來蘋果硬體的外觀和手感。圖源:推特在收購io Products完成後,OpenAI 沒有停下腳步,反而把「蘋果係」當成首要目標。多家媒體通報,自2025 年初以來,OpenAI 已從蘋果挖走二十多名硬體與產品工程相關人員。截至目前,OpenAI招攬的硬體團隊成員涵蓋了工業設計、iPhone和Mac 硬體、相機工程、音訊、手錶與Vision Pro、晶片、測試和可靠性工程、製造與供應鏈管理等多個環節且不乏中高層崗位,簡直就是在內部重建了一個「蘋果硬體設計團隊」。OpenAI如此瘋狂地挖人,到底想做什麼?OpenAI可能要做一款AI版的iPhone?作為AI大模型熱潮的發起者,OpenAI在過去幾年裡的主要競爭重心都放在了“雲端”,也就是模型訓練、推理部署和生態介面等方面,這些也是OpenAI的最大優勢。不過,隨著AI產業的進一步發展,OpenAI其實也發現自己似乎被困在了雲端,雖然擁有全球一流的AI大模型,但卻難以觸及真正的一線硬體生態。而自己的對手,Google卻有Pixel系列手機、有Nest系列智慧家庭產品和即將發表的AI眼鏡產品等一系列硬體產品,可以說高下立判。或許你會說:“OpenAI不需要自己運作硬體生態,只需要對外銷售AI服務就行了”,問題就在於,使用OpenAI 大模型的AI 硬體數量,其實是在減少的。雖然小雷手上沒有具體的統計資料,但從海外的AI硬體產品來看,使用開源大模型的產品數量正在顯著增加。圖源:SenseCAP Watcher甚至不少中小型企業的AI服務都開始更依賴開源模型,而非OpenAI或Google的商業閉源模型。說穿了還是經濟效益的考量,開源模型是完全免費的,而且可以輕鬆進行客制化和私有化訓練,而OpenAI雖然也提供類似的服務,但是卻需要付出昂貴的訓練成本,並且之後還要承擔持續的使用成本。所以,OpenAI也就只能擼起袖子加油幹了,從他們挖來的蘋果員工的履歷來看,很多都在iPhone、Apple Watch、Mac和Vision Pro等核心硬體的設計部門工作多年,顯然不是為了設計一個AI Pin、AI指環之類的產品而來的。小雷認為,OpenAI真正想做的可能是一部“AI版iPhone”,其實類似的風聲並非現在才傳出來,早前就有傳聞稱Altman、Jony Ive和孫正義(軟銀)希望聯手打造一部手機,當時軟銀甚至計畫對這個項目投入10億美元以上的資金。不過後續因為各種原因最終導致計畫被暫時擱置,直到2025年才開始重啟,Altman 和Ive在最近的一場公開活動中證實,他們手裡已經有了第一批原型機,並且預計會在兩年內量產上市。更有趣的是,Altman把這台裝置的使用感受形容為“像坐在湖邊小木屋裡那麼安靜”,強調它要和今天這種滿屏通知、強刺激的手機形成反差。所以,從目前公開的資訊來看,這個裝置大機率會比手機更小,可能沒有傳統意義上的大螢幕,而是一個內建了麥克風、相機、一定算力和網路連線的「AI 終端」。圖源:Gemini看起來似乎跟上周我們聊過的Rabbit r1很像?小雷認為應該不會,至少從Altman的描述來看這款硬體本身可操作性是優於Rabbit r1的,也會更像一部“手機”,只不過機身的尺寸可能會更傾向於iPhone 7、8那樣的大小,並且不像手機那樣需要使用者時刻關注。簡單來說,這款AI硬體會有更高的“主動性”,不僅可以隨時回應你的語音指令,還能根據使用者周圍的環境進行自主決策,主動輔助使用者處理任務和資訊。舉個例子,當你坐在電腦前正在打遊戲,此時有一個訊息傳送到你的終端,AI可以自動判斷該訊息是否需要馬上通知你查看。如果AI認為訊息重要,就語音通知使用者詢問是否需要播報,如果是非重要訊息則選擇靜默並將訊息歸納到通知列中,等後續使用者閒下來時再進行提醒。除此之外,這款產品顯然還會擁有一系列自主的智慧體功能,可以在許多工中進行自主決策和任務鏈梳理。所以,在小雷看來,如果將這款AI硬體產品簡單歸納為AI手機,反而低估了OpenAI的野心,他們或許是想以此為基準打造一個新的AI作業系統,硬體只是展示這個系統的載體而已。中國AI三巨頭的硬體心思:字節做手機,阿里Inside,百度靠小度與仍停留在「籌備硬體」階段的OpenAI 相比,中國的AI 廠商顯然跑得更快。過去一年裡,無論是字節的豆包、阿里的千問,還是百度的小度,它們都已經把大模型真正塞進了硬體或系統中,讓「AI 終端」這個概念不再停留在PPT,而是開始實打實地進入消費者手中。1. 豆包:直接推出了一款AI Phone。豆包日前發佈了備受爭議的第一款真正的AI手機,不過與OpenAI不同的是,豆包並沒有完全自研,而是與中興進行合作,字節內部設計定稿後交由中興代工生產,同時內建了系統級的AI助手“豆包手機助手”。得益於深度客制化方案帶來的優勢,豆包手機助理可以直接獲得跨應用程式的全域控制權,使其能夠在使用者的語音指揮下完成各種操作。不過,這種實作方式本身還是基於Android的底層服務,相當於讓一個應用程式拿到了包含系統簽章權限、全域錄影畫面和類比觸控與輸入等多項核心服務的使用權。圖源:中興商城如此多的核心權限呼叫,很容易觸發敏感App 的安全機制,例如在豆包AI手機上登錄微信會導致帳號被誤封,實際上就是因為微信檢測到異常權限呼叫,誤以為使用者在用自動化程序進行“非法行為(刷單等)”,所以做了臨時封禁。不過,從豆包手機助理表現出來的能力來看,它也確實值得我們期待,很多原本需要複雜操作的任務,都可以直接交給AI來完成。舉個例子,你在小紅書看到一個不錯的商品,你可以直接圈定商品並讓AI全網比價後選擇最優惠的商品連結下單,然後你只需要完成確認下單和付款的步驟即可。至少從目前的用戶回饋來看,豆包手機助理確實滿足了我們對AI手機的多數想像,雖然還有不少地方存在瑕疵,但是已然比傳統的手機+AI語音助理要有用許多。但短板也很明顯,容易引起用戶的隱私擔憂,而且你很難說服一線手機廠商交出系統底層權限,米OV等大廠基本上更希望基於自研大模型來推動系統的AI化進程。豆包已經用自己的產品證明了:當AI 能跨App 行動時,手機的使用方式會發生質變。圖源:豆包製作:雷科技2. 千問:軟硬兼施,要Inside一切硬體。與豆包選擇從手機入手不同,阿里千問的策略是將AI 做成一個橫跨電腦、瀏覽器乃至未來所有終端的「操作層」。夸克AI 瀏覽器的出現,讓千問第一次具備了系統級權限的雛形,它能理解整個網頁結構,能主動收集內容並完成資訊管理,也能執行跨標籤、跨頁面的整理任務。更重要的是,它將「搜尋—分析—整理—輸出」這一整條鏈條自動化,不再讓使用者手動切換介面,而是讓千問作為「全域智能體」為使用者完成複雜流程。而且,這套流程只需要進一步擴展,其實也是可以做到類似豆包手機助手那樣的跨應用程式自動操作。圖源:雷科技雖然千問並沒有貿然下場做自己的手機,但是它在PC、瀏覽器、辦公場景中的滲透卻極為迅速。由於阿里在雲端、辦公平台和瀏覽器入口上的佈局,千問就像是流淌在齒輪之間的潤滑劑,既可以隨著需求流轉到不同的齒輪,也能各個「齒輪」(阿里的軟體)更加協同。而在硬體領域,阿里其實也做了不少部署,前段時間發布的夸克AI眼鏡和釘釘A1,都是針對細分化領域和市場的AI硬體產品。所以,小雷認為千問的想法其實是:軟體層面大而全、硬體層面小而精,跨裝置生態協同與垂直細分硬體生態兩步走。另外,小雷覺得千問其實並沒有將硬體作為第一優先來考慮,而是認為用戶入口才是關鍵,只要千問能成為“系統級的潤滑劑”,未來無論終端形態怎麼改變,它都能保持存在感。這種路線與豆包不同,卻同樣重要。一邊是要重構手機系統,一邊是要重構系統入口,兩家都在試圖定義“AI 應該以怎樣的方式介入日常操作”,只是路徑大相徑庭而已。同時,阿里雲也在持續透過「通義」大模型來孵化AI硬體,在明年的1月8日-11日期間,阿里雲就打算在深圳舉辦智能硬體展,超過1000+的AI硬體將在展廳中亮相,這時候你或許會發現,阿里的AI或許生態其實已經悄然成長為大樹了,這就是開源的魅力吧(Qwen)。3. 百度:依託小度打造自有硬體矩陣。雖然小度在11月時發布了首款AI眼鏡,但是從硬體覆蓋範圍、終端數量以及生態完善度來說,小度音箱等一系列家庭智慧終端或許才是百度最大的「AI基本盤」。早在2024年的百度世界大會上,小度硬體就被定位為“全屋AI的中樞”,而在2025年的大會上則是更進一步,變成“AI原生家庭生活”的基座。可以說,從小度智慧螢幕、小度音箱到全新升級的小度家庭中樞OS,再到文心一言的場景化能力,這一年百度真正把家庭智慧場景推到了戰略中心。百度重點展示的“全屋主動式AI系統”,不再只是被動等待指令,而是能基於聲音、圖像、位置和行為數據主動判斷用戶需求。圖源:百度例如在廚房準備晚餐時自動推送食譜,在孩子寫作業時自動切換學習模式,甚至能智慧分辨家庭成員並提供個人化回應。與手機不同,小度設備自然處在一個長時在線、多人共享、持續感知的長期環境中,這使百度的AI利用更多模態資訊構建真正的主動智能。在小雷看來,這就是百度的最大優勢,依託小度的硬體覆蓋率、持續在線特性以及文心模型在中文場景的天然優勢,百度已經在家庭AI生態走出了一條屬於自己的賽道,而這條賽道目前還沒有第二個競爭對手擁有同級別的能力。如果說豆包是在手機端“重塑操作流程”,千問希望跨設備“重塑資訊入口”,百度則是選擇了一條更生活化、但也更長期和難以撼動的路徑:讓AI成為家庭中最自然的日常存在。海外AI大廠不遑多讓,Google/微軟/Meta爭奪下一代入口聊完國內,不妨讓我們來看看OpenAI真正的對手們,Google、微軟、Meta也都在推進AI硬體及生態,但是細看之下就會發現,他們的賽道更加依賴其既有生態。雖然不同的公司對「AI 時代的入口」有不同理解,但它們都已經把硬體視為下一階段的關鍵。從PC到手機,從眼鏡到穿戴,每一家都在尋找新的作業系統級機會,這場競爭遠比智慧型手機時代更激烈。1. Google:坐擁Android王朝,AI生態已成?如果說全球AI巨頭裡,誰在AI生態方面“穩坐泰山”,那麼肯定是Google,甚至在小雷看來,Google是全球最有可能率先完成“AI終端統一體驗”的公司,因為它擁有當前移動生態最核心的三塊拼圖:龐大的Android系統、自研的Pixel手機系列(採用Google自研晶片)以及具備具備頂級模型的龐大模型。圖源:Google其實從Pixel 8開始,Google就已經把Gemini 深度整合進系統,實現了跨應用分析、智慧摘要、隨手機相機進行多模態推理等功能,讓Pixel 成為純正意義上的「大模型原生手機」。更關鍵的是,Google正在重啟AR眼鏡項目,試圖打造手機之後的下一代視覺入口。如果說OpenAI想打造“AI原生設備”,Google則是在現有生態上重構系統,並以硬體展示AI的最高能力。不過,Google想進一步整合Android生態卻也是困難重重,先不說米OV等一眾國產手機廠商,三星與Google的合作也是僅限於系統,內建的系統AI乾脆就是ChatGPT,這也是為何Gemini一直都止步於Pixel系列手機。說實話,大家對Google都是相當的警惕,作為手握一流模型、最大搜尋引擎、最大瀏覽器和最大行動作業系統的公司,Google在生態層面的實力屬實有點超標了。某種程度上,這正好形成了一個「Google悖論」:它越強,生態越謹慎;它資源越多,夥伴越不敢靠得太近。尤其在AI進入系統級、操作級的階段,各大手機廠商更是把「系統AI層」當成至關重要的護城河,而不是一個輕易開放給Google的模組。所以,在未來的一段時間裡,Google估計都還是得繼續經營自己的AI硬體生態,直到Google能成功拿出一台足夠創新、足夠「非手機化」的AI設備時,這個局面或許才會有變化。2. 微軟:PC巨頭困在系統裡。微軟對AI的態度一直都很積極,不管是投資OpenAI還是上線Copilot,都算得上是“反應迅速”,自Copilot系統級整合以來,Windows已經出現許多類似“輕量級AI操作系統”的能力,而Surface設備則承擔著“AI PC原型機”的試驗任務。從硬體加速到本地推理,再到Copilot自動處理檔案、檔案、網頁的能力,微軟顯然想把個人電腦變成一個能主動協助工作的AI 工具。不過,雖然Windows是全球最通用的桌面系統,但在AI 時代,它能否繼續保持這種統治力,反而成為一個新的未知數。圖源:微軟英特爾、AMD、高通三家晶片廠商正在同時強化自家NPU與本地推理能力,聯想、華碩、惠普等OEM廠商也在力推各自的AI軟體概念,每一家都試圖在硬體與軟體之間建立更緊密的生態。至於微軟的AI PC下一步該怎麼走,關鍵其實並不在Windows身上,而是整個PC生態的協同上。微軟需要英特爾、AMD、高通提供更強的NPU,需要OEM廠商願意在硬體層面配合AI調度策略,也需要開發者願意為AI PC建構新的應用形態。小雷認為微軟的最大底牌依然是Windows的裝機量和使用者黏性。一旦微軟找到合適的突破場景,例如檔案自動化、企業級工作流程、開發者整合等系統級入口,它有可能憑藉生態規模完成一次「AI系統化升級」。但是這個節點什麼時候能夠到來,誰也說不準。3. Meta:押注AI眼鏡,賭下一個「入口」。Meta其實可以說是目前最堅定的AI眼鏡支持者(同時也是最成功的),祖克柏始終堅定地認為,智慧眼鏡將成為繼手機之後的下一個「人機互動入口」。基於這個理念,Meta與Ray-Ban合作推出的智慧眼鏡逐漸成為Meta展現自己AI能力的窗口。隨著Llama模型的加入,眼鏡不僅能拍攝、記錄,也能即時視覺理解、即時翻譯並進行語音互動,甚至在部分場景中實現類似個人助理的主動功能。與Vision Pro這種高度沉浸式的裝置不同,Meta的眼鏡路線強調輕量、無感、便攜,更接近日常配戴需求。圖源:Meta說實話,Meta確實是給全球AI眼鏡打了個樣,告訴大家智能眼鏡其實還有另一條路可以走,不需要強大的算力、也不用出彩的顯示效果,而是讓AI在使用者的日常生活中保持一種「低干擾、高可用」的狀態。不過,AI眼鏡目前最大的問題其實還是算力不足,如果想滿足複雜的任務要求,必然需要連接手機或PC,將後者當作運算中心來使用。所以,某種程度上來說,現階段的AI眼鏡仍然在探索自己的位置,究竟是單獨的AI硬體,還是手機等智慧終端的「附屬」?小雷覺得,接下來的兩年裡,我們應該就能看到這個問題的答案了。做不好硬體的AI大廠,成不了真AI巨頭?過去這一周,國內外AI 圈突然熱鬧得有些反常:阿里通義的系統級AI 助手上桌、夸克完成與千問的深度融合、字節豆包繼續推動AI 手機成規模發售,幾乎每一家大模型廠商都在端出自己的“AI 終端”。在小雷看來,這並不是巧合,正好說明AI正在從演算法與雲端的博弈,走向更貼近使用者的消費級硬體。對於所有AI 公司來說,要真正落地到千行百業,硬體不再是可選項,而是繞不過去的主戰場。事實上,回顧數十年來整個網際網路的發展,從PC 網際網路到行動網際網路,再從IoT 裝置到智慧家居,硬體始終扮演著位元世界與物理世界之間的「橋樑」。 AI的興起也是如此,只有當大模型進入手機、耳機、眼鏡、家庭裝置乃至車載系統,人工智慧才真正擁有了改變使用者習慣、改寫產業生態的能力。所以,小雷認為AI大廠都不會滿足於只做“雲端大腦”,它們一定會想辦法把自己變成某種看得見摸得著的“AI 終端”,無論這個終端長得更像手機,還是更像眼鏡、胸牌、耳機,或者某種全新的形態。因此,無論是OpenAI想做“AI 原生終端”,還是豆包發佈“AI Phone”,或是Meta打造AI眼鏡,背後都是同一邏輯:掌握硬體,才有資格定義下一代入口。特別值得一提的是,在即將於2026年1月6日啟幕的CES2026上,AI硬體也成了重頭戲之一,根據CES官方發佈的AI預覽來看,AI將是本屆展會的絕對焦點,AI晶片、AI PC等AI硬體的展示令人期待。作為中國報導科技展會最悠久、最深入、最專業的新媒體,雷科技CES2026報導團已成立並正在進行緊張的前期籌備。今年雷科技將派出史上最大規模的CES報導團,並由雷科技創始人兼總編輯羅超帶隊,對CES2026進行一線、專業和立體報導,屆時我們也將對CES2026上的AI硬體們進行重點關注,敬請期待。 (雷科技)
小扎親自煲湯!矽谷挖人手段又升級了
OpenAI首席研究官Mark Chen爆料,矽谷AI人才爭奪激烈,Meta首席執行長祖克柏甚至親自烹飪送湯招攬人才。人工智慧企業間的商戰某種程度上並不高科技,甚至可能只關乎於一碗湯。OpenAI首席研究官Mark Chen在一檔播客節目中激情爆料,稱矽谷現在的AI人才爭奪格局已經發生了變化,Meta首席執行長祖克柏甚至自己烹飪並親自送湯來招攬他想從OpenAI挖走的科研人員。Chen透露自己當時非常震驚,但隨後“從善如流”。現在他也會給自己的新員工送湯,並希望從Meta挖走人才。不過,他不會自己烹飪,而是讓矽谷裡的一家高檔韓國餐廳負責製作。他甚至開玩笑稱計畫在OpenAI公司外開設烹飪課,以凸顯出目前矽谷人才競爭中的荒謬感。但不可否認的是,矽谷對於AI頂尖研究人才的爭奪已經進入了一個全新階段。利誘不如走心?Chen表示,Meta對他手下一半的直接下屬都拋過橄欖枝,並為挖角行動投入了100億美元。但他強調,Meta很多次挖角都以失敗告終,因為研究人員相信OpenAI的發展方向,且認為它才會是率先研究出通用人工智慧的公司。儘管如此,今年還是有很多頂尖人才選擇換個東家,且競爭也不僅只在於OpenAI與Meta之間,馬斯克的xAI、微軟、Anthropic,甚至國內大廠騰訊、字節跳動及阿里巴巴也都全情參與人才之戰。這也反映出該行業內關鍵的供需矛盾。業內共識,目前能夠設計和訓練尖端大型語言模型的人才庫極其稀少,全球具備獨立推進這項技術所需專業知識的研究人員可能不足1000人。而由於人工智慧行業允許研究人員提前兌現股權,提供特殊的計算資源獲取管道,並許諾員工在人工智慧系統建構方式中的強大影響力,企業很難用當年網際網路時期的健身房、免費咖啡等福利吸引人才,因此,更多的企業家不得不開始提供一些“情緒價值”。祖克柏的湯就是一個典型案例。企業高管通過建構親密方式來招攬員工,以在薪酬和資源上再次加碼,比如送湯的背後意味十分簡潔明了:你是重要人才,所以值得我花時間來討好。 (科創日報)
AI泡沫要破?巨佬顛覆認知的觀點來了!
大模型的決戰越來越激烈了!Google的崛起令OpenAI感到恐懼,並醞釀新的大動作!OpenAI直接拉響警報,推遲賺錢的廣告業務,也要把所有資源梭哈到ChatGPT的改進上。現在的AI圈子,像是星球大戰前夜,由於恐懼,每個人都把手指扣在了扳機上。兵荒馬亂的年代,蔡崇信在香港大學爐邊對話中,拋出了非常反直覺的觀點:現在美國人定義誰贏得AI競賽的方式,純粹是看大型語言模型,我們不看美國定義的AI競賽。當所有人都在盯著誰的模型參數大、誰的算力強時,蔡崇信卻認為——勝負手根本不在這裡。如果不看模型,這場兆賭局的贏家到底看什麼?中國手裡到底還有沒有牌?看完發現,原來大佬眼裡的世界,和我們看到的完全不一樣。1中國AI的真正優勢現在美國矽谷大模型怎麼算輸贏?很簡單:看誰的“大語言模型”更強、更聰明、參數更多。今天是OpenAI遙遙領先,明天Anthropic發個新版本追平,後天Google又搞個大新聞。大家都在卷模型,彷彿誰的模型智商高了一點,誰就統治了世界。但在蔡崇信看來,事實未必如此。他在演講中說了這麼一句極具穿透力的話:"The winner is not about who has the best model. The winner is about who could use it the best in their own industries, in their own lives."(真正的贏家不是誰擁有最好的模型,而是誰能在自己的行業、自己的生活中把它用得最好)這句話什麼意思?打個比方。如果這是一場賽車比賽,美國人現在拚命在比誰的發動機馬力大。但蔡崇信告訴你,贏家不是那個造出萬匹馬力發動機的人,而是那個能把發動機裝進車裡、開著車去送貨、去載客、去賺到真金白銀的人。這個判斷的底層邏輯是:AI的真正價值在於滲透率。中國國務院的AI規劃就體現了這一務實思路——到2030年,AI智能體和裝置的普及率達到90%。中國憑什麼能普及得更快?蔡崇信列出了幾個核心底層邏輯。我們總擔心晶片被卡死,但蔡崇信告訴我們:決定勝負的,是那些基礎到你根本不會關注的領域。1.被低估的電力成本AI訓練和推理,本質上是在燒電。中國的電力成本,比美國低40%。為什麼?中國的國家電網每年投入900億美元的資本支出,而美國只有300億美元。電費低40%,意味著AI應用成本可以大幅低於對手。這是最基礎、最硬核的AI能源優勢。2.建造資料中心的成本低60%在中國建造資料中心的成本要便宜60%,這還不包括購買晶片、廉價GPU的成本。3.工程師紅利晶片可以封鎖,但人才你鎖不住。全球範圍內,幾乎近一半的AI科學家和研究人員擁有中國大學的學位——無論他們在美國公司、中國公司還是世界任何地方工作。蔡崇信說在最近剛看到一個社交媒體帖子,一個在Meta工作的非華裔員工抱怨說,他所在的AI團隊每個人都在說中文,用中文交流想法,他聽不懂。這意味著很多想法的分享和交流在全球AI領域正在用中文進行。這是第一次,中文成為一種優勢!現在,懂中文在AI世界變成了一個優勢。4.最反直覺的優勢:匱乏,逼出內功這是最讓人熱血沸騰的一點:缺乏頂級GPU,反而創造了“飢餓優勢”。美國人資源充足,程式碼寫得爛一點也沒關係,硬體能扛。但中國團隊呢?硬體受限,就必須在系統層面、演算法層面做到極致最佳化,把效率摳到最高。蔡崇信特別點名了爆火的DeepSeek。他說這就是被逼出來的奇蹟。2開源為什麼會贏?蔡崇信還給出了一個對未來的深度判斷,也是這場演講的重中之重。蔡崇信相信中國公司對待大語言模型的方法——即開源——將加速AI的採用,並將真正實現AI的普及,從而使更廣泛的社會受益。開源如此重要的原因是,它成本低廉,使用開源模型實際上不花一分錢。AI的未來,是像OpenAI那樣搞“黑箱子”(閉源),還是像阿里、Meta那樣搞開源?蔡崇信斬釘截鐵:開源模型,將擊敗閉源模型。為什麼?不是因為開源技術更先進,而是因為它更懂人性。他舉了一個極其生動的例子:假設你是沙烏地阿拉伯的國王,你想發展自己國家的AI,你有兩個選擇:用OpenAI的API:你得付一大筆錢,把你的資料傳給美國公司。然後呢?你不知道他們怎麼處理你的資料,你也不知道這模型裡面有什麼貓膩。這就是一個Black Box(黑箱)。用開源模型(比如阿里的Qwen):你直接下載程式碼,部署在你自己的私有雲上。免費,而且資料不出國門,完全可控。這就叫"主權AI",意思是它是我們自主開發的AI。在全球地緣政治這麼複雜的今天,誰願意把命脈交到別人手裡?無論是政府還是大企業,只要稍微算一下帳,稍微考慮一下安全,都會傾向於開源。開源模型有三大殺手鐧:成本、主權、隱私。這三座大山,是閉源模型很難跨越的。3AI時代,普通人該如何應對?蔡崇信給了三條極具實操性的建議,特別是關於“學什麼”,他的觀點顛覆了很多人的認知。1.提出正確的問題比回答更重要在技能方面,蔡崇信認為要學習如何獲取知識,學習如何分析和思考,還有一個重要的技能是提出正確的問題。以前我們上學,老師獎勵那些能快速回答問題的人。但在AI時代,回答問題是機器的事,機器的知識庫比你大多了。蔡崇信強調:"Asking the right question is more important than finding the answer." (提出正確的問題,比找到答案更重要)你要學會的是如何給AI下指令,如何拆解問題。這叫“Prompt Engineering”(提示工程),這是未來人類的核心競爭力。2.還要不要學程式設計?這是目前爭議最大的話題。輝達的老黃說“以後沒人需要學程式設計了”,對著手機說話就行。蔡崇信反對這個觀點。他說:要學!必須學!但他給出的理由:"The purpose is not to actually operate a machine. The purpose is going through that thinking process."(目的不是為了去操作機器,而是經歷那個思考過程)學程式設計,不是為了讓你去寫程式碼(那活兒AI幹得比你好),而是為了訓練你的邏輯思維。甚至,他建議大家去學好Excel電子表格。為什麼?因為你要把一個複雜的公式寫對,讓數字自動跑出來,這本身就是一種嚴密的邏輯訓練。你要訓練的是腦子,而不是手速。3.選什麼專業?如果你的孩子現在要上大學,蔡崇信推薦了三個方向:資料科學:其實就是統計學的升級版。未來是資料爆炸的時代,世界越數位化,你或公司獲取的資料就越多,理解如何管理和分析資料非常重要。心理學和生物學:在做了資料之後,你還想觸及人性的一面,心理學的研究很重要。心理學和生物學幫助你理解人腦是如何工作的,它仍然是最高效、最節能的"機器",理解大腦如何工作非常重要。材料科學:現在很多孩子不學電腦科學,而是在學材料科學。未來世界正被位元(數字資訊)主導,但未來讓位元移動更快的是原子(物理材料)。理解原子如何工作將會非常重要,人們製造半導體,未來半導體領域將會有很多創新。所以材料科學將是一個有趣的學習方向。4AI是泡沫還是未來?AI是否是下一個網際網路泡沫?蔡崇信的回答很哲學,關於泡沫,他認為有兩個概念:真正的泡沫和金融市場泡沫。金融市場泡沫:不知道是否存在金融市場泡沫,因為股票估值更像一門藝術。即使有既定的理論,你可以給一隻股票50倍的市盈率,因為你認為增長率非常高,這合理嗎?我不知道,可能存在與AI相關的金融市場泡沫。技術泡沫:AI現像是真實的。人們正在建造的所有基礎設施,投入到模型開發中的所有研發資源,都不會浪費,因為這是一個真實的現象。就像網際網路一樣,在2000年3月左右,網際網路泡沫破裂了,那是金融市場泡沫破裂,但今天的網際網路就在這裡,事實上網際網路現在更強大,所以技術本身不是泡沫。蔡崇信的這次演講,給人最大的感受是,這場比賽才剛剛開始。這不是一場百米衝刺,看誰起跑快;這是一場馬拉松,看誰能把技術真正融入到這片土地的每一個角落,看誰能用更便宜的電、更務實的態度、更開放的胸懷,去擁抱這個未來。"Focus on the application, not just the model."(關注應用,而不只是模型)這,或許才是中國AI破局的真正答案。對於個人來說,也許在未來,AI將成為成為我們的夥伴。正如蔡崇信所言:AI的下一個重大轉變是當人們開始不再僅僅將AI視為工具,而是作為朋友。現在AI似乎更像一個工具,我們都想用它來讓自己更高效,讓公司更高效。AI已經在幫助我們編碼,所以我們不需要那麼多軟體工程師。但是,AI何時能成為你的夥伴?那時,如果大多數人開始像對待另一個人一樣看待AI,那將真正改變世界,改變行為。有時想想這很可怕,但我看到這正在發生。 (ETF進化論)
瑞銀:為什麼OpenAI要啟動“紅色警報”?輝達是否也要亮紅燈?圖說AI競爭
資料顯示,Google正在多個維度縮小與OpenAI的差距。11月Gemini的下載量達到1.008億次,而ChatGPT為6780萬次。使用者現在在Gemini上的聊天時間已超過ChatGPT或Claude等聊天機器人競爭對手。GoogleGemini 3發佈以來的兩周內,ChatGPT的每日獨立活躍使用者數七天均值已下降6%。本周人工智慧(AI)領域一個重磅消息是,OpenAI CEO Sam Altman周一向全體員工宣佈啟動“紅色警報”,要將全部資源集中於最佳化ChatGPT,應對GoogleGemini的激烈競爭。這一戰略調整反映出AI競爭格局的深刻變化,也揭示了Google自研晶片TPU對輝達晶片主導地位的潛在威脅。媒體報導稱,OpenAI決定推遲包括廣告業務、健康和購物AI代理和個人助手Pulse等其他產品開發,將核心資源重新配置到改善ChatGPT的日常使用體驗上。Altman表示,OpenAI仍需改進ChatGPT的日常體驗,包括提升個性化功能、速度和可靠性,並擴大可回答問題的範圍。瑞銀科技分析師Tim Arcuri在最新研報中指出,Google將要發佈的新一代TPU晶片Ironwood及其TPU生態系統正在對輝達構成實質性挑戰。輝達的股價表現已明顯落後於Google。Google使用者時長反超,ChatGPT日活下滑市場資料顯示,Google正在多個維度縮小與OpenAI的差距。據Sensor Tower資料,11月Gemini的月度下載量達到1.008億次,而ChatGPT為6780萬次。更值得注意的是,使用者現在在Gemini上的聊天時間已超過ChatGPT或Claude等聊天機器人競爭對手。據Deedy Das統計,自GoogleGemini 3發佈以來的兩周內,ChatGPT的每日獨立活躍使用者數(七天均值)已下降6%,顯示出競爭壓力的直接影響。雖然OpenAI仍擁有超過8億周活躍使用者,在整體聊天機器人使用中佔據主導地位,但使用者正在向Google流失。OpenAI負責ChatGPT的主管Nick Turley本周一晚間在社交媒體發帖稱,搜尋是最大的機遇領域之一,ChatGPT目前佔全球搜尋活動的約10%且增長迅速。他還說,公司的重點是讓ChatGPT更強大、繼續增長並擴大全球訪問範圍,同時使其更直觀和個性化。瑞銀:GoogleTPU晶片對輝達構成威脅在AI模型競爭的背後,晶片層面的較量同樣激烈。瑞銀科技分析師Tim Arcuri在研究報告中指出,GoogleTPU晶片的進步正在改變市場格局。據Arcuri分析,Google在今年4月首次披露最新一代TPU晶片Ironwood,並於11月正式推出。該晶片針對大語言模型(LLM)、專家混合模型(MoE)和高級推理進行最佳化,支援訓練、微調和推理工作負載,這與此前TPU的狹窄定製形成對比。Ironwood尚未提交至MLCommons的MLPerf v5.1資料中心訓練基準測試,但鑑於更多計算資源、FP8支援和遠超前代的高頻寬記憶體,Arcuri預計其單晶片性能將明顯超過Trillium。Arcuri指出,Google的上一代Trillium晶片專門針對推理工作負載最佳化且HBM容量較低(32GB vs 95GB),相比之下,Ironwood擁有更多計算資源、FP8支援和大幅增加的HBM容量,預計單晶片性能將顯著超越Trillium。Ironwood還將TPU規模擴展到最多9216個TPU的域,遠超v5p的8960個和Trillium的256個。Arcuri指出,這正是輝達整個生態系統表現明顯落後於Google的原因,Google正享受TPU產品帶來的關注度激增。GoogleDeepMind的首席技術官Koray Kavukcuoglu表示,通過使用Google自研的定製晶片訓練AI模型,公司已經“顯著提升了性能”。瑞銀認為,雖然Google隨著時間推移可能會考慮擴大TPU的生態系統,但任何此類努力都必須限制對Google雲平台(GCP)收入的潛在蠶食。從這個角度來看,Meta和蘋果都是內部TPU部署的主要候選對象,因為它們擁有支援內部工作負載的大型AI項目、龐大的內部AI叢集,且對GCP的依賴相對較小。OpenAI面臨多重競爭壓力OpenAI此次啟動紅色警報的背景是面臨來自多家競爭對手的壓力。Google上月發佈的新版Gemini AI模型在行業基準測試中超越了OpenAI,推動Google母公司Alphabet的股價飆升。上周Alphabet股價一周漲超14%,自兩周前發佈Gemini 3以來,截至上周五不到兩周內也累漲超10%。自8月發佈圖像生成器Nano Banana以來,Gemini的使用者基數持續攀升。Google透露,月活躍使用者從7月的4.5億增長至10月的6.5億。OpenAI還面臨來自Anthropic的壓力,後者在企業客戶中越來越受歡迎。雖然OpenAI仍擁有超過8億周活躍使用者,在整體聊天機器人使用中佔據主導地位,但使用者正逐漸被Google吸引。輝達回應TPU挑戰面對GoogleTPU的崛起,輝達在與瑞銀的交流中強調了與Google雲平台的牢固關係,指出Google在Gemini推理工作負載中同時使用TPU和GPU。輝達認為,雲服務商不太可能在其雲堆疊中運行TPU,因為需要大量工作負載最佳化才能在專用積體電路(ASIC)上實現總體擁有成本(TCO)優勢。輝達還表示,迄今為止,其相對於同行的性能優勢並未縮小。展望2026年,輝達指出Anthropic的1吉瓦(GW)容量和HUMAIN的60萬單位擴張是其2025-2026年5000億美元訂單數量之外的增量,提供了潛在上升空間。輝達的CPX晶片正在瞄準需要100萬以上token上下文窗口的高級程式設計應用。輝達尚未正式公佈市場規模,但此前曾暗示上下文窗口應用約佔推理市場的20%。Altman上月說,未來八年,OpenAI的資料中心項目承諾投資總額約為1.4兆美元。換句話說,OpenAI擁有1.4兆美元的承諾資金投入,用於維持其行業領先地位。總體而言,OpenAI確實有理由感到緊張,但這場動盪目前仍侷限於公司內部。至於輝達這家全球市值最高的公司是否也面臨類似的“紅色警報”,市場仍在密切觀望。 (invest wallstreet)